Материалы по тегу: периферийные вычисления

24.01.2024 [14:50], Руслан Авдеев

Обновлённый космический суперкомпьютер HPE Spaceborne-2 готов к отправке на МКС

На следующей неделе планируется запуск на Международную космическую станцию (МКС) обновлённого варианта специального вычислительного модуля HPE Spaceborne Computer-2. Как сообщает Национальная лаборатория МКС, это коммерческая версия суперкомпьютера из серийных компонентов, созданная на основе серверов семейств HPE EdgeLine и ProLiant.

Организаторами запуска выступают NASA, Northrop Grumman и SpaceX. Старт должен состояться 29 января 2024 года в рамках миссии NG-20 — борту корабля Northrop Grumman Cygnus планируется доставить на станцию различные научные материалы, оборудование и компоненты. Одним из грузов будет и обновлённая версия Spaceborne-2, ранее отправленного на МКС в феврале 2021 года и вернувшегося на Землю 11 января 2023. Первый компьютер серии Spaceborne отправили на МКС 14 августа 2017 года, возвращение состоялось 4 июня 2019.

 Источник изображения: NASA

Источник изображения: NASA

По данным Datacenter Dynamics, в состав системы всё ещё входят x86-серверы HPE Edgeline EL4000 с одним GPU и HPE DL360 Gen10. Обновлённая система протестирована HPE и передана NASA. Всего по требованию NASA пришлось внести 516 корректировок. Например, HPE в сотрудничестве с KIOXIA оснастила систему дополнительным хранилищем. Суперкомпьютер поможет продолжающимся на МКС исследованиям, обеспечив более быструю обработку наблюдений со станции за Землёй и более эффективный мониторинг здоровья астронавтов.

Постоянный URL: http://servernews.ru/1099203
10.01.2024 [19:40], Сергей Карасёв

Новые чипы Ambarella привнесут возможности генеративного ИИ в периферийные устройства

Компания Ambarella сообщила о том, что её SoC обеспечат поддержку генеративного ИИ на периферии. Ожидается, что это позволит расширить возможности множества систем и приложений, включая робототехнику и средства видеоаналитики. Отмечается, что по сравнению с ускорителями на базе GPU и другими специализированными решениями, чипы Ambarella представляют собой полноценные «системы на чипе», которые обеспечивают до трёх раз более высокую энергоэффективность на каждый токен.

Изначально Ambarella обеспечит оптимизированные возможности генеративного ИИ на своих SoC среднего и высокого классов. Это, в частности, изделие CV72 для устройств с энергопотреблением до 5 Вт. Кроме того, функции генеративного ИИ будут поддерживать чипы новой серии N1 с «производительностью серверного уровня» при энергопотреблении до 50 Вт.

 Источник изображения: Ambarella

Источник изображения: Ambarella

Чипы N1 основаны на архитектуре Ambarella CV3-HD, изначально разработанной для приложений автономного вождения. Утверждается, что изделие N1 способно обрабатывать модель Llama2-13B с выводом до 25 токенов в секунду в однопоточном режиме при потребляемой мощности менее 50 Вт.

Все изделия Ambarella используют новую платформу для разработчиков Cooper. Чтобы ускорить вывод конечных продуктов на рынок, Ambarella предварительно портировала и оптимизировала популярные большие языковые модели, такие как Llama-2 и LLava.

Постоянный URL: http://servernews.ru/1098543
24.12.2023 [00:14], Руслан Авдеев

Семь компаний из Нидерландов присоединились к проекту ЕС по созданию энергоэффективных периферийных ЦОД

Консорциум, объединяющий семь нидерландских компаний и исследовательских структур выиграл грант на проект, предусматривающий создание эффективных ЦОД для периферийных вычислений. Как сообщает Datacenter Dynamics, т.н. Modular Integrated Sustainable Datacenter project (MISD) получил «зелёный свет» у чиновников Евросоюза и Министерства экономики и климата Нидерландов.

По имеющимся данным, проект получит €70 млн от местного правительства. В консорциум входят специалист по системам жидкостного охлаждения — компания Asperitas, а также BetterBe, Deerns, Eurofiber, NBIP (National Internet Providers Management Organization), TNO и Университет Твенте.

Проект MISD стал частью программы European IPCEI (Important Project of Common European Interest – Cloud Infrastructure and Services), которая получит €1,2 млрд на разработку общей облачной инфраструктуры Евросоюза. В 2024–2029 гг. в рамках MISD необходимо будет построить модульный, экоустойчивый, безопасный ЦОД для периферийных вычислений. При этом выбросы углекислого газа необходимо снизить вдвое в сравнении с предлагаемыми сегодня решениями.

 Источник изображения: Callum Parker/unsplash.com

Источник изображения: Callum Parker/unsplash.com

Как заявляют в Asperitas, MISD стал плодом многолетнего сотрудничества, направленного на создание энергетически эффективных ЦОД. Ожидается, что выделение средств позволит стране стать хабом для разработки дата-центров нового поколения. Сама Asperitas обеспечивает системы иммерсионного охлаждения, BetterBe является SaaS-провайдером, Deerns представляет собой инженерную компанию. Наконец, Eurofiber — это провайдер оптических сетей.

В Asperitas намерены добиться «оптимальных результатов» от применения жидкостного охлаждения, а в BetterBe заявили, что намерены внести вклад в разработку и реализацию модульных энергосберегающих дата-центров с распределёнными облачными платформами и изучить возможности более оптимального использования аппаратного обеспечения. Eurofiber обеспечит лабораторию и географически распределённую среду для испытаний, а NBIP будет изучать возможности повышения безопасности и доступности новой облачной инфраструктуры, например, с помощью распределённой защиты от DDoS-атак.

Постоянный URL: http://servernews.ru/1097914
18.12.2023 [13:14], Сергей Карасёв

MSI представила серверы начального уровня на процессорах Intel Xeon E-2400

Компания MSI анонсировала свои первые продукты, поддерживающие процессоры Intel Xeon E-2400. Дебютировали материнская плата D1500, а также серверы S1103 и E2103, предназначенные для сферы малого и среднего бизнеса, периферийных вычислений и пр. Новинки относятся к начальному уровню.

 Источник изображений: MSI

Источник изображений: MSI

Плата D1500 выполнена в форм-факторе micro-ATX. Поддерживается установка чипа в исполнении LGA 1700: напомним, изделия Xeon E-2400 содержат до восьми ядер Raptor Cove, имеют два канала памяти DDR5 и позволяют использовать до 16 линий PCIe 5.0. Величина TDP не превышает 95 Вт.

Материнская плата наделена четырьмя слотами для ОЗУ-модулей DDR5-4800 UDIMM и двумя разъёмами PCIe. Поддерживаются до восьми портов SATA-3; кроме того, можно установить два SSD формата М.2 2280/22110 (NVMe). В оснащение также включён двухпортовый сетевой контроллер 10GbE.

 Источник изображений: MSI

Источник изображений: MSI

Модель D1500 является основой стоечных серверов S1103 и E2103 типоразмера 1U и 2U соответственно. Первый из них допускает установку четырёх LFF-накопителей и двух внутренних SFF-устройств (все с интерфейсом SATA-3). Этот экономичный сервер хорошо подходит для таких задач, как веб-хостинг, периферийные вычисления, облачные приложения, хранение данных и пр.

В свою очередь, E2103 представляет собой edge-сервер стандарта 2U, оборудованный одним слотом PCIe 5.0 и двумя коннекторами M.2 NVMe. Во фронтальной части располагаются шесть отсеков для SFF-накопителей SATA. В качестве опции предлагается возможность установки четырёх устройств U.2 NVMe.

Постоянный URL: http://servernews.ru/1097613
17.12.2023 [22:50], Руслан Авдеев

На связи с космосом: Armada привлекла $55 млн на создание автономных микро-ЦОД со Starlink-подключением

Занятая созданием решений в сфере периферийных вычислений компания Armada объявила о привлечении $55 млн на свои разработки в соответствующей нише. По данным Datacenter Dynamics, также речь идёт об инвестициях в платформу управления такими вычислениями. Для ЦОД компании предусмотрено использование спутниковой связи.

Раунд финансирования возглавили Founders Fund, Lux Capital, Shield Capital и 8090 Industries, также участие приняли Contrary, Felicis, Koch Real Estate Investments, Marlinspike, Valor Equity Partners, 8VC и другие инвестиционные компании. В январе венчурные инвесторы Founders Fund, Lux Capital, и Shield Capital уже возглавили посевной раунд инвестиций в Armada объёмом $15 млн. Представители некоторых инвесторов уже вошли в состав совета директоров Armada.

Armada предлагает защищённые автономные дата-центры Galleon в модульным исполнении со спутниковым подключением к Starlink, размещаемых в стандартных 20- и 40-футовых грузовых контейнерах (на 3 и 6 стоек соответственно). Как заявляют в Armada, ИИ-системы различного характера и назначения совершили революцию в повседневной жизни и в бизнесе, но далеко не у всех имеются равный доступ к ним. Во многих регионах отсутствует даже базовый доступ в Сеть, из-за чего многие структуры не могут по-настоящему эффективно применять свои данные.

 Источник изображения: Armada

Источник изображения: Armada

Как заявляют в самой Armada, в сфере периферийных решений генерируются огромные объёмы данных, но им не находится практически никакого применения. В компании утверждают, что набрали лучшую команду для того, чтобы исправить положение, а инвесторы и советники поддержат начинания бизнеса. Пока, по информации Forbes, у Armada фактически нет клиентов, кроме горнодобывающей Nexa Resources, совместно с которой проводятся испытания для «проверки концепции». В целом стартап настроен на работы в сфере обороны и добычи полезных ископаемых.

Своей основной миссией Armada назвала устранение цифрового неравенства. В кругах инвесторов уверены, что Armada сыграет ключевую роль в удовлетворении растущих потребностей в индустриальном Интернете вещей для производственных компаний и промышленных приложений. Вероятное сотрудничество со SpaceX пока не комментируется. Ранее в Armada заявляли, что уже наладили взаимодействие с компанией Илона Маска (Elon Musk).

Тем временем Microsoft предложила собственный модульный контейнерный ЦОД Azure MDC с опциональным подключением к сети Starlink. В сентябре «ЦОД на колёсах» со спутниковым подключением для формирования сети 5G и периферийных вычислений предложил американский телеком-оператор Verizon. А у AWS есть «тактический» микро-ЦОД.

Постоянный URL: http://servernews.ru/1097599
15.12.2023 [13:00], Сергей Карасёв

Giga Computing представила edge-серверы с процессорами Intel Xeon E-2400

Компания Giga Computing (Gigabyte) анонсировала новые серверы типоразмера 1U, предназначенные для периферийных вычислений, веб-хостинга и бизнес-приложений. В основу новинок положены процессоры Intel Xeon E-2400, насчитывающие до восьми вычислительных ядер (показатель TDP — до 95 Вт).

В частности, дебютировала модель E133-X10 уменьшенной глубины. Это решение ориентировано на edge-задачи. Устройство может применяться в помещениях с ограниченным пространством. Сервер допускает установку двух карт FHFL PCIe 5.0 x16/8 и одной карты FHHL PCIe 4.0 x4, двух накопителей SFF с интерфейсом SATA-3 и SSD формата M.2 с интерфейсом PCIe 4.0 x4.

Кроме того, анонсированы серверы R133-X10, R133-X11 и R133-X13. Они различаются организацией подсистемы хранения данных на основе накопителей SFF, LFF и М.2, а также возможностями в плане установки карт расширения (см. таблицу с характеристиками ниже). Все перечисленные устройства комплектуются двумя блоками питания мощностью 550 Вт с сертификатом 80 Plus Platinum или 800 Вт с сертификатом 80 Plus Platinum/Titanium.

 Источник изображений: Gigabyte

Источник изображений: Gigabyte

Представлены также серверы R123-X00 и R113-X30 с возможностью установки одной карты FHHL PCIe 5.0 x16 и SSD формата M.2 с интерфейсом PCIe 4.0 x4. Первая из этих моделей поддерживает четыре накопителя SFF/LFF с интерфейсом SATA-3, вторая — два. Кроме того, R123-X00 может нести на борту две LP-карты PCIe 4.0 x4. Установлен блок питания на 400 Вт с сертификатом 80 Plus Gold.

Все новинки оснащены контроллером ASPEED AST2600, двумя сетевыми портами 1GbE (версия R133-X11 имеет дополнительно два порта 10GbE), четырьмя слотами для модулей оперативной памяти DDR5-4400 ECC / non-ECC UDIMM, портами USB 3.2 Gen1 и Mini-DP. Применено воздушное охлаждение.

Постоянный URL: http://servernews.ru/1097509
15.12.2023 [00:30], Алексей Степин

Intel представила процессоры Xeon D-1800/2800 и E-2400 для edge-систем и серверов начального уровня

Наряду с анонсом процессоров Xeon Scalable пятого поколения компания Intel обновила и модельные ряды Xeon D и Xeon E. Изменений и нововведений в представленных чипах достаточно много. Так, модельный ряд Xeon D по традиции поделён на две ветви: Xeon D-1800 и Xeon D-2800.

Уже сериии Xeon D-1700 и D-2700 были адаптированы для работы в серверах периферийных вычислений и в составе сетевого оборудования. Напомним ключевые моменты:

  • Интегрированный 100GbE-контроллер с RDMA iWARP/RoCE v2;
  • Интегрированный коммутатор и обработчик пакетов у Xeon D-2700;
  • До 32 линий PCI Express 4.0;
  • Наличие Intel QAT, SGX и TME;
  • Поддержка AVX-512, в том числе VNNI/DL Boost;
  • Поддержка технологий TSN/TCC, критичных для систем реального времени.
 Источник: Intel via ServeTheHome

Источник: Intel via ServeTheHome

Всё это характерно и для новых Xeon D-1800 и D-2800, ведь в их основе лежит прежняя архитектура Ice Lake-D. Речь всё ещё идёт о сочетании DDR4 и PCI Express 4.0, однако улучшения всё же есть: оптимизация техпроцесса позволила довести максимальное количество ядер до 22 против 20 у предыдущих моделей при неизменном теплопакете. Небольшой прирост производительности тоже есть — примерно 1,12-1,15х у старшей модели Xeon D-2800. Кроме того, процессоры Xeon D-1800, наконец, получили поддержку двух 100GbE-портов.

 Источник: Intel

Источник: Intel

Одновременно с анонсом новых Xeon D состоялся анонс серии Xeon E-2400, которая заменит Xeon E-2300. Изменений здесь существенно больше. Во-первых, платформа перебралась с LGA 1200 на LGA 1700, а на смену ядрам Cypress Cove пришли Raptor Cove. И хотя E-ядер в составе CPU нет, Intel почему-то решила не активировать поддержку AVX-512. Во-вторых, существенный апгрейд претерпела подсистема памяти: вместо двух каналов DDR4-3200 теперь доступна пара каналов DDR5-4800.

Наконец, Xeon E-2400 получили поддержку PCI Express 5.0 — из 20 имеющихся процессорных линий 16 теперь способны работать именно в этом режиме. Подросла версия DMI с 3.0 до 4.0, а PCH новой платформы теперь предоставляет 20 линий PCIe 4.0 и 8 линий PCIe 3.0. Заодно с трёх до пяти выросло количество портов USB 3.2 Gen 2x2 (20 Гбит/с).

 Источник: Intel via ServeTheHome

Источник: Intel via ServeTheHome

Максимальное число ядер в новой серии Xeon E осталось прежним — их всё ещё восемь, но благодаря существенно более быстрой памяти и использованию техпроцесса Intel 7 Ultra производительность новинок в среднем в 1,3 раза выше, чем у предшественников. Базовая частота подросла до 3,5 ГГц, в турборежим частота доходит до 5,6 ГГц, но при этом теплопакет не выходит за рамки 95 Вт. Нацелены Intel Xeon E-2400 на рынок серверов и облачных систем начального уровня.

Постоянный URL: http://servernews.ru/1097496
14.12.2023 [22:30], Владимир Мироненко

FPGA + Orin: Lattice и NVIDIA будут сотрудничать в деле ускорения ИИ-вычислений на периферии

Lattice Semiconductor представила на конференции для разработчиков Lattice Developers Conference новую эталонную платформу для ускорения разработки периферийных ИИ-решений использованием платформ NVIDIA Jetson Orin и IGX Orin. Сотрудничество Lattice с NVIDIA нацелено на повышение эффективности подключения сенсоров к приложениям для ИИ-обработки, что позволит расширить возможности сообщества разработчиков открытых платформ.

Согласно пресс-релизу, эталонная open source плата, основанная на энергоэффективных FPGA Lattice и аппаратной платформе NVIDIA Orin, предназначена для удовлетворения потребностей разработчиков в подключении к разнообразным датчикам и интерфейсам, при разработке масштабируемых высокопроизводительных периферийных ИИ-приложений с низким уровнем задержкидля нужд здравоохранения, робототехники, встраиваемых систем визуализации и т.д. Эталонная плата пока доступна лишь избранным клиентам, но Lattice планирует расширить доступ к решению и примерам приложений в I половине 2024 года.

 Источник изображения: Lattice Semiconductor

Источник изображения: Lattice Semiconductor

«Мы рады сотрудничеству с NVIDIA, которое позволит расширить возможности наших эталонных решений, предлагая больше инноваций нашим клиентам и экосистеме, чтобы помочь упростить и ускорить внедрение периферийных приложений ИИ», — заявил директор по стратегии и маркетингу Lattice Semiconductor. В свою очередь директор по управлению встраиваемыми ИИ-продуктами NVIDIA отметил, что сотрудничество с Lattice позволит ускорить инновации в области обработки показаний датчиков и упростить развёртывание приложений ИИ «от периферии до облака».

Постоянный URL: http://servernews.ru/1097473
11.12.2023 [21:23], Руслан Авдеев

McDonald’s и облако Google обещают перевернуть представления об общепите с помощью ИИ

McDonald's подписала многолетнее соглашение с Google Cloud Platform — гигант общепита станет использовать оборудование, данные и ИИ-решения Google в своих точках питания по всему миру, сообщает Datacenter Dynamics. Подключение заведений к цифровой инфраструктуре Google Cloud упростит управление объектами и оптимизирует рабочие и бизнес-процессы, благодаря чему улучшится опыт взаимодействия посетителей и персонала.

В первую очередь компания намерена использовать решения Google для периферийных вычислений, внедряя в ресторанах платформу Google Distributed Cloud для анализа работы оборудования и минимизации нарушения бизнес-процессов. Также ожидается, что McDonald's сможет быстрее улучшить собственные программные платформы, в том числе мобильное приложение и ПО в киосках для самообслуживания благодаря облачным вычислениям.

 Источник изображения:  Hat Trick/unsplash.com

Источник изображения: Hat Trick/unsplash.com

А специальная команда Google в Чикаго будет сотрудничать с глобальным инновационным центром McDonald's Speedee Labs. В частности, ИИ Google будет применяться для поиска решений в сфере «ключевых бизнес-приоритетов». Ожидается, что комбинация бренда и масштаба McDonalds с компетенциями Google Cloud в области ИИ и технологических инновациях позволит переформатировать работу индустрии и даже изменить ожидания людей от заведений общепита.

McDonald's начала переезд в облако ещё в 2018 году. На тот момент компания намеревалась сотрудничать с AWS на протяжении пяти лет, а также перенести часть бизнес-процессов в Microsoft Azure. Журналисты запросили у компании комментарии того, как новая сделка с Google Cloud повлияет на предыдущие договорённости — ещё в прошлом году старший директор облачных и информационных служб McDonald's утверждал, что все корпоративные системы компании уже находятся в облаках.

Постоянный URL: http://servernews.ru/1097300
07.12.2023 [17:18], Сергей Карасёв

Scale Computing представила компактный компьютер HE153 на базе Intel Raptor Lake для периферийных вычислений

Компания Scale Computing анонсировала первые устройства серии HE100, в основу которых положены компьютеры небольшого форм-фактора ASUS Next Unit of Computing (NUC). Решения, выполненные на платформе Intel Raptor Lake, предназначены для организации периферийных вычислений.

Максимальная конфигурация включает процессор Core i7-1370P (6Р+8Е; 20 потоков; 1,4–5,2 ГГц; 20–28 Вт; Intel Iris Xe Graphics). Объём оперативной памяти может составлять 16, 32 или 64 Гбайт. Допускается установка одного SSD формата M.2 (NVMe) вместимостью 1, 2, 4 или 8 Тбайт.

Дебютировали модели HE153 и HE153s: первая оснащена двумя сетевыми портами 2.5GbE, вторая — одним. На устройствах применена фирменная «самовосстанавливающаяся» программная платформа, позволяющая приложениям автономно функционировать на периферии. Прочие характеристики новинок пока не раскрываются.

 Источник изображения: Scale Computing

Источник изображения: Scale Computing

Благодаря небольшим размерам три компьютера серии HE100 могут бок о бок монтироваться в серверное шасси типоразмера 1U. В качестве альтернативного варианта допускается установка нескольких устройств стопкой друг на друга. На фронтальную панель изделий выведены два порта USB 3.х Type-A. Сзади находится интерфейс HDMI.

В продажу новинки поступят в I половине 2024 года по цене от $5400 за кластер из трёх узлов.

Постоянный URL: http://servernews.ru/1097102
Система Orphus